🛠️ Just nu pågår en större helrenovering här. Om du hittar något som inte fungerar som det ska får du gärna höra av dig!

Skip to main content
profile pic
Anders Thoresson

Filterbubblan: Algoritmer är mänskliga beslut i kodutförande

| | | | | Lästid: 10 minuter (9794 tecken)

Såpbubblor.

Frågan om filterbubblan och vad personanpassningen av allt fler tjänster på nätet innebär är ämnen som jag ständigt återkommer till, både i texter och i föreläsningar. Nu har jag fått en ny anledning att skriva om det här, efter att ha läst Per Grankvists nya essä En värld av filterbubblor1. Och det är utmärkt, tycker jag. Det här är verkligen inte en statisk situation. Tjänsternas algoritmer utvecklas ständigt, och forskningen om deras påverkan har också börjat ta form.

Vilken musikstil är din? #

För att konkretisera vad filterbubblor egentligen innebär vänder sig Per Grankvist till Spotify och funktionen Discover Weekly. Utifrån vad vi lyssnat på kommer Spotify med förslag på vad vi också kan tänkas gilla, sammanställt i en ny, personanpassad lista varje måndag. Till skillnad från statusuppdateringar på Facebook eller länkförslag hos Google blir det i urvalet av musik tydligt vad en filterbubbla kan vara: Fler varianter av det du redan gillar. Det är svårt att ha en instinktiv känsla för vilken typ av innehåll Google eller Facebook väljer ut åt oss. Men hur olika musikstilar skiljer sig från varandra kan de flesta av oss höra. Hos Spotify blir det därför uppenbart att Discover Weekly inte innehåller låtar slumpvist valda ur det gigantiska låtbiblioteket.

Vad är alternativet till personanpassning? #

Personanpassningen innebär på det här sättet till att nätet blir mer användbart för mig. På Spotify får jag musikförslag som ligger i linje med min smak. På Facebook får jag i huvudsak se uppdateringar från de vänner och grupper jag bryr mig mest om. Google har en känsla för vad jag menar med mina sökningar.

Och det finns all anledning att tro att det är så här vi föredrar att nätet ska fungera. Åtminstone hävdade Mark Zuckerberg det i en intervju med Wired för tre år sedan:

If you only have time to look at 10 or 20 stories, it’s much better to have the best ones at the top. I think that’s a better experience than missing your cousin’s announcement that she’s pregnant, because it appears 30 stories down. We run experiments all the time where 1 percent of users get an unranked feed and all the metrics that we have show that those people’s experience is meaningfully worse.

Inget urval är “osorterat” #

Värt att notera: “Unranked” betyder inte “osorterad” utan att inläggen kommer i kronologisk ordning, med senaste nytt. Jag passar på att göra det påpekandet, eftersom det ibland låter som om algoritmer och personanpassning är ett dåligt alternativ till en “ofiltrerad” eller “neutral” sorteringsordning. Bland annat var det så sökmotorn DuckDuckGo positionerade sig gentemot Google i en annonskampanj 2012. I reklamfilmen påstås att DuckDuckGo “are giving you unfiltered search results by not collecting any personal information”.

Det här är i sak fel – och dessutom inte nödvändigtvis ett bättre alternativ till personliga sökresultat. Självklart är träfflistan också hos DuckDuckGo både filtrerad och sorterad. Om den inte var det skulle det innebära att alla träffar som matchade användarens sökord skulle presenteras i en enda stor röra. Däremot är träfflistan hos DuckDuckGo inte sorterad på olika sätt för olika personer.

Det innebär att de som söker hos DuckDuckGo inte hamnar i sina egna filterbubblor.

Däremot innebär det att alla som använder DuckDuckGo hamnar i samma filterbubbla. Och det är inte nödvändigtvis ett bättre alternativ.

Är människor mer objektiva? #

Per Grankvists essä går att läsa som om det fanns en skillnad mellan mänskligt redaktörskap å ena sidan, och algoritmer å den andra. Att mänskliga redaktörer (och med redaktörer avser han i första hand redaktörer i den vanligaste betydelsen, på traditionella redaktioner hos traditionella medier) i större utsträckning kan förväntas göra “objektiva” avvägningar, medan algoritmer ger användaren vad hen vill ha.

Jag var inne på samma resonemang för sex år sedan, i ett blogginlägg där jag hoppades att redaktionernas redaktörer skulle bli mer synliga på nätet:

Vad är det jag som prenumerant av en papperstidning egentligen betalar för? Text och bild, givetvis. Distribution och tryck, så klart. Men i stor utsträckning också för det arbete som redaktörer och redigerare utför i skymundan. Tjänsten redaktörskap är för mig värd många kronor. (…)

Nu går det givetvis alltid att ha synpunkter på hur bra jobb redaktörerna på en morgontidning gör, om det är rätt grejer som prioriteras. Men i slutändan är det ändå deras arbete som till stor del förklarar varför tidningen fortfarande är en viktig del av morgonrutinen. De hjälper mig att spara tid genom att snabbt ge en överblick över det senaste dygnets viktigaste nyheter.

Men sex år senare är jag inte längre helt övertygad om att det här resonemanget håller.

De algoritmer som gallrar i flödena idag gör det inte utifrån någon naturlag om vad som ska hamna i topp. Algoritmer är inte heller magi. Algoritmer (för den tillämpning vi diskuterar här) är mänskligt redaktörskap uttryckt i programkod. Det innebär att nyhetsvärderingen kan ske mycket snabbare, och det blir möjligt att göra den på ett personanpassat sätt. Men det innebär inte att den måste vara så långt viktad åt vill ha-hållet som den är på många ställen idag. Det är möjligt att ge algoritmerna större inslag av viktigt också. Och även om vi aldrig kommer att vara helt överens om vad som är viktigt och vad som är ren underhållning kommer vi många gånger kunna vara överens om de stora dragen, det är jag övertygad om.

En person som ofta lyfter fram en obalans som finns idag är Zeynep Tufekci. I en text från augusti 2014 skriver hon till exempel om händelserna i Ferguson, då Michael Brown sköts ihjäl av polis och de efterföljande protesterna, och hur stor skillnad i genomslag rapporteringen om dem hade på Facebook jämfört med Twitter.

Algoritmer kan också prioritera “viktigt” #

Det är inte så att det är omöjligt för algoritmer att lyfta fram händelser som Ferguson och istället spela ner det senaste skvallret om Kardashians. Det är inte en kompetensskillnad mellan mänskliga redaktörer och redaktörer i kod. (Det här är också en viktig sak att hålla i huvudet: För varje länk en algoritm väljer att visa väljs massor av andra länkar bort. Prioriteringen som görs är inte ett nollsummespel, då hade den inte behövts över huvud taget.)

Det är en skillnad mellan de prioriteringar som bestämts ska vara de som gäller. Det är prioriteringar som görs av människor. Om jobbet sedan också utförs av mänskliga redaktörer eller mänskliga programmerare, det har mindre betydelse.

Per Grankvist landar i slutsatsen att det är betalningsviljan som avgör. Att de nätanvändare som är beredda att betala för ett redaktörskap får en nyhetsvärdering som prioriterar “viktigt” högre, genom att med sina pengar köpa sig tillgång till mänskliga redaktörer. De som hellre vill slippa betala får en nyhetsvärdering som prioriterar “vill ha”.

Jag tror att han kan ha rätt i det, men att sambandet inte är riktigt så direkt som man kan få uppfattningen av att det är när man läser hans text.

Företagen som utvecklar tjänster på nätet behöver intäkter. Det finns två huvudsakliga källor: Från användare eller från annonsörer. Oavsett vilken affärsmodell ett företag baserar sin verksamhet på måste de se till att användarna är nöjda. Är de inte det kommer de välja en annan innehållsleverantör på nätet, och då finns varken ett intäktsunderlag i form av prenumerationer eller annonsörer kvar att finansiera verksamheten med.

Och som jag resonerade i blogginlägget som jag länkar till här ovan, om redaktörernas arbete: Det är en av anledningarna till att jag betalar för en morgontidningen. Men om den faktiska gallringen görs direkt eller indirekt av en människa – anställd redaktör eller algoritm – spelar mig egentligen mindre roll.

Bubblan är inte ny – men den har krympt #

Parallellen till traditionella mediers redaktörer återkommer flera gånger i Per Grankvists essä. Och det stämmer: Filterbubblan är inte ny, vi har bara fått ett nytt ord för att beskriva den. När jag läste till journalist på Göteborgs Universitet pratade vi mycket om gatekeepers, om personer som sitter på centrala positioner i nyhetsflödet och bestämmer vad som ska bli en förstasidesnyhet, vad som ska bli en notis och vad som inte ska få plats i tidningen över huvud taget.

Det nya är inte filtret i sig. Det nya är att det är automatiserat. Och med automationen ökar möjligheterna till inte ett flöde, utan många. Till personanpassning. Istället för att göra ett urval anpassat till en tidnings samlade läsekrets kan vi på nätet göra ett urval anpassat till Anders Thoresson.

Det innebär att filterbubblorna krymper.

Bra, som jag redan konstaterat, i vissa fall.

Mer problematiskt i andra.

Filterbubblor i politisk kommunikation #

Per Grankvist tar i sin essä upp de mest debatterade filterbubblorna: De algoritmer hos Google och Facebook som väljer vilka länkar och statusuppdateringar vi får se i våra flöden.

Det som inte diskuteras lika ofta, och som saknas helt i essän, är när samma algoritmer används för att skräddarsy politiska budskap. Här tycker jag att det blir läskigt på riktigt, och återigen använder jag en text som Zeynep Tufekci har skrivit: Engineering the Public: Big Data, Surveillance and Computational Politics. Jag har refererat till den i ett tidigare blogginlägg, och plockar ett citat därifrån:

Principen är inte ny, politiker och företag har länge försökt analysera väljarkåren/konsumenterna för att hitta bra sätt att övertyga dem att deras politik/produkter är de bästa. Men det är här jag ser Zeynep Tufekcis artikel koppla till Eli Parisers teorier om filterbubblan och den krympande, offentliga sfären. Tidigare har kampanjande och marknadsföring skett via stortavlor på stan, tv-reklam och annonser i tidningar. Nu är det något helt annat.

När det politiska kampanjandet inte sker helt öppet varnar Zeynep Tufekci för att vi riskerar att mista en stor del av underlaget för en offentlig debatt.

Om de här frågorna handlade också avsnitt 22 av podcasten Digitalsamtal, där jag intervjuade statssekreterare Maja Fjaestad. Aktualiteten då var rapporten Algoritmer i samhället, beställd av Kansliet för strategi- och framtidsfrågor. Och redan i tredje avsnittet av podden pratade Carl Heath och jag om personanpassningen av nätet.

Bubblan är inte en – den är många #

Samtidigt är det viktigt att komma ihåg att vi oftast pratar om filterbubblan, i singular. Men så ser ju inte verkligheten ut. De flesta av oss existerar i väldigt många olika sammanhang. Vi har kollegor, familj, vänner. Vi är kanske med i någon förening här, har träningskompisar där. Allt detta är plattformar där vi har möjlighet att möta nya tankar (och anledningen till varför DuckDuckGos idéer om samma sökresultat till alla kanske inte är helt optimal, trots allt).

Men det finns en sak som jag verkligen reagerar på – och vänder mig mot – i Per Grankvists text. Han skriver:

När Eli Pariser föreslog att internetjättarna ska förändra algoritmerna för att punktera våra bubblor och prioritera viktiga nyheter begärde han i själva verket bara att vi skulle byta ut en filterbubbla mot en annan. Bara tanken på att en central instans som skulle bestämma vilka nyheter som är viktiga och som alla följaktligen borde ta del av, skickar kalla kårar längs ryggen på liberaler, humanister och andra som värnar individens rätt att göra sina egna val.

Google och Facebook är redan de centrala instanserna. Deras algoritmer gör redan en värdering av vad som är det viktigaste för användaren att ta del av.

Sen råkar deras “viktigt” inte alltid sammanfalla med det som bland andra jag menar när jag använder det ordet.

  1. Essän finns också i en kortversion hos Dagens Nyheter. ↩︎

Foto: Sebastian Pichler